home *** CD-ROM | disk | FTP | other *** search
/ Power Tools 1993 November - Disc 1 / Power Tools Plus (Disc 1 of 2)(November 1993)(HP).iso / wkst / 50917014 / 50917014.txt < prev   
Text File  |  1993-06-28  |  35KB  |  656 lines

  1. HP Cluster Computing Program Overview
  2.  
  3. Background
  4. Cluster computing has become popular as a result of two trends, one
  5. economic and one technical. On the economic side, many Cray and IBM 3090
  6. supercomputers have been leased and the leases are ending. Even
  7. supercomputers that have been paid for cost approximately a million
  8. dollars a year to keep running. As a result, many supercomputing users
  9. are evaluating solutions other than traditional supercomputers to get
  10. their numerically intensive computations done.
  11.    On the technical side, RISC workstations have continually improved in
  12. performance at a very fast rate since their introduction in the mid-
  13. 1980s. RISC processor performance leap-frogs nearly every 18 months;
  14. supercomputer performance continues to improve also, but not nearly as
  15. fast. Another important fact is that, while workstations are getting
  16. faster, they are also becoming more affordable. Supercomputers, on the
  17. other hand, are becoming more expensive with time.
  18.    Today, many scalar applications used in supercomputing (such as the
  19. commonly used Monte Carlo simulation) actually run faster on individual
  20. RISC workstations than they do on the fastest supercomputers, since
  21. traditional supercomputers rely on specialized vector processors for
  22. most of their speed. In fact, many users have successfully utilized the
  23. power of multiple workstations to solve their compute-intensive tasks.
  24. HP intends to build on that work and enhance this technology so that
  25. more of our customers can benefit.
  26.  
  27. Computational Cluster Definition
  28. A computational cluster is a group of two or more workstations networked
  29. together and used as a virtual single computational resource.
  30. Workstation clusters augment the computing power of traditional
  31. mainframes and supercomputers to perform batch or parallel processing.
  32. As shown below, a computational cluster is configured with two or more
  33. headless workstations connected via Ethernet or a higher-speed, lower-
  34. latency networking link such as FDDI. A workstation connected to the
  35. cluster serves as a console to manage the workstations in the cluster.
  36. Software residing on the server workstations manages the task
  37. distribution.
  38.  
  39. [Figure, page 1: illustration. Captions: Example Workstation Cluster;
  40.  Desktop workstation used as a control console; 8 workstations in a
  41.  1600mm rack]
  42.  
  43. Cluster Advantages
  44. Workstation clusters are, by their nature, modular and flexible. In the
  45. past, users would actually buy more supercomputing power than they
  46. needed at the time to have room to grow over time. Now, with workstation
  47. clusters, users can simply add more workstations to the cluster as their
  48. needs grow or swap out older systems with more powerful systems. And if
  49. recent history is any indication, the new workstations will not only be
  50. more powerful but also more affordable.
  51.    Many researchers are also looking at clusters as a low-risk entry
  52. into the world of Massively Parallel Processing (MPP). Many believe that
  53. an industry standard will develop with MPP machines and are afraid of
  54. locking into the "wrong" technology. Until a standard emerges, many
  55. researchers are using the workstation cluster as a platform to develop
  56. their parallel programs. This strategy falls in line with HP and
  57. Convex's plans to offer an MPP supercomputer that will be program
  58. compatible with our workstation cluster offerings.
  59.  
  60. Cluster Scalability
  61. The size of a cluster may vary according to the application and the
  62. processing mode (batch or parallel). The maximum number of workstations
  63. used in a batch processing cluster is unlimited, with current
  64. installations topping 100 workstations. The optimal number of
  65. workstations in a parallel processing cluster ranges from 8 to 16. After
  66. 16 workstations, the message passing between machines starts to overcome
  67. the additional useful work being done.
  68.  
  69. Batch Processing with Clusters
  70. Here a computational cluster acts as a throughput accelerator. This mode
  71. is the most popular way of using computational clusters because there is
  72. no impact on application code. As shown in the following diagram, when a
  73. computational cluster is in batch processing mode, jobs are sent to the
  74. cluster from workstations, X terminals, and other available clients.
  75. Tasks are automatically sent to the cluster via a central queue or a
  76. distributed queue, depending on the batch queueing solution used. Jobs
  77. sent to a queue are large compute-intensive calculations, background
  78. jobs, and other non-interactive tasks which typically require more than
  79. ten minutes processing time. Batch processing is useful for applications
  80. such as CAE, CAD, software development, and scientific analysis. For
  81. example, a software developer uses batch queueing software to run
  82. compiles on a cluster while the developer's own workstation is free to
  83. do more interactive development. The batch software, such as Task Broker
  84. or NQS, performs functions such as task distribution and balancing the
  85. workload to maximize performance.
  86.  
  87. [Figure, page 2: illustration. Captions: Batch; Lots of Jobs to Lots
  88.  of CPUs; Cluster]
  89.  
  90. Parallel Processing with Clusters
  91. When a cluster operates in parallel processing mode, as shown in the
  92. following figure, a large job sent to the cluster is divided among
  93. multiple CPUs. Parallel processing is an advanced form of clustering and
  94. requires modifications to the application software to break it up into
  95. relatively independent tasks. The customer uses software tools such as
  96. Linda or PVM to help parse the program into smaller pieces of code or
  97. information. In a parallel processing cluster, interaction between
  98. processors can be slower than in a traditional multiprocessor computer.
  99. Applications must have a high ratio of compute-intensive calculations to
  100. I/O communications to perform well in a cluster computing environment.
  101. This type of application is called a coarse-grained application.
  102. Molecular dynamics, raytracing used in visualization, and seismic data
  103. analysis are examples of coarse-grained applications.
  104.  
  105. [Figure, page 3: illustration. Captions: Parallel; One Job to Lots of
  106.  CPUs; Cluster]
  107.  
  108. The Convex/HP Partnership
  109. HP has extended its partnership with Convex Computer to include Cluster
  110. Computing. Convex is a leader in the supercomputer market and provides a
  111. high level of expertise in parallel processing. Convex is a member of
  112. PRO (Precision RISC Organization) and will develop MPP (Massively
  113. Parallel Processing) machines using the PA-RISC chip. Convex has ported
  114. three cluster computing enabling products to the Series 700 workstation.
  115. The products are ConvexNQS+, ConvexPVM, and ConvexMLIB. HP and Convex
  116. are pooling knowledge and resources to develop a suite of scalable
  117. computing products to meet the needs of the compute-intensive market.
  118. The result of this relationship is a four-tiered product offering for
  119. computational clusters.
  120.  
  121. [Figure, page 3: illustration. Captions: Cluster Solutions; Desktop
  122.  Cluster Existing Workstations on a LAN; Dedicated Cluster of
  123.  Workstation Servers; Pre-assembled Cluster; Meta Series Convex
  124.  C Series Super Computer with Series 700 Workstations]
  125.  
  126.    1. Desktop Cluster: Here, with the addition of the right batch or
  127. parallel processing software, existing desktop workstations are utilized
  128. as a single computational resource in off-hours to do batch or parallel
  129. processing in addition to the interactive design work they were
  130. purchased for.
  131.    2. Dedicated Cluster: Many people have already set up dedicated
  132. clusters of segregated workstations in addition to those on the desktop
  133. to off-load the very computationally intensive parts of their work to
  134. free up the interactivity of the desktop client. Typically several high-
  135. performance workstation servers are set up for this task.
  136.    3. Pre-assembled Cluster: Customers now have the option to purchase a
  137. cluster already assembled in a rack. Configurations of up to eight
  138. Series 700 workstations can be mounted into a rack with the system
  139. already pre-configured with the selected network (Ethernet or FDDI)
  140. installed.
  141.    3. Meta Series: Convex offers a "Metacomputer" containing a C series
  142. supercomputer and a cluster of 2-8 HP workstations. The Meta Series
  143. integrates the vector processing and large data handling capabilities of
  144. a supercomputer with the scalar processing of workstations and is
  145. appropriate for customers who require both processing methods. This
  146. product is sold by Convex.
  147.  
  148. Software for Clusters
  149.  
  150. Software for Batch Processing
  151. There are several software programs available on the Series 700 to
  152. manage a cluster network in batch processing mode: Task Broker, NQS,
  153. ConvexNQS+, and Load Balancer.
  154.  
  155. Task Broker
  156.  
  157. Hewlett-Packard
  158. Task Broker is an HP product available on all Series 700 workstations,
  159. as well as the Series 800 servers. Task Broker is also available from a
  160. third-party vendor, SAIC, to run on Sun SPARCstations. Task Broker
  161. maximizes the performance of the workstation cluster by efficiently
  162. distributing tasks to the best server available.
  163.    The process by which a task is distributed to the cluster is as
  164. follows:
  165.    1. Once installed, Task Broker creates "daemons," which run in the
  166. background waiting for service requests.
  167.    2. Tasks (service requests) are submitted from the user's machine.
  168.    3. The "daemon" on the user's machine queries the "daemons" on other
  169. workstations in the cluster about their ability to perform the task. The
  170. criteria for selecting a server include: the type of application, the
  171. time of day, the number of services currently using the server, the CPU
  172. load, and the available disk space.
  173.    4. The daemon on the user's workstation selects the workstation that
  174. is both available and best suited to perform the task.
  175.    5. If all servers are busy, the task waits in a queue until a server
  176. is free.
  177.    6. Files needed to complete the task may be transferred to the server
  178. by Task Broker or accessed remotely via NFS.
  179.    7. The task is completed on the selected workstation, and the results
  180. are sent back to the originating workstation.
  181.    Task Broker resides on each client and server workstation in the
  182. cluster. The version of Task Broker must be appropriate for that model
  183. server. There is no centralized server which controls the brokering and
  184. queueing of tasks. Important features in Task Broker include:
  185.    o Application code does not have to be recompiled to be run by Task
  186. Broker.
  187.    o Task Broker automatically sends results back to a user-specified
  188. file on the user's computer. Mail messages can be sent to notify the
  189. user the job is complete.
  190.    o Servers and clients are added to a network equipped with Task
  191. Broker simply by hooking the machine to a LAN, updating the central Task
  192. Broker configuration file to include the new client/server, and starting
  193. the Task Broker daemon.
  194.    o Task Broker provides an accounting of services used on a given
  195. server.
  196.    o The number of applications running on a computer at any one time
  197. can be limited. This prevents degradation of server performance.
  198.    o Users can control the use of their computer as a server. For
  199. example, users can specify that their workstations be accessed only at
  200. night.
  201.  
  202. Task Broker Benefits
  203. In situations where jobs need to be executed on remote computers, Task
  204. Broker offers more flexibility and power than existing network
  205. utilities, such as those for remote copying of files (ftp) or remote
  206. shell execution (remsh). Moreover, Task Broker enables you to define
  207. what services are to be provided on which computers, how and when each
  208. service will be provided, as well as who can access these services. Task
  209. Broker has the following user benefits:
  210.    More efficient access to compute resources (i.e., load balancing) -
  211. Task Broker assigns jobs to the server node, whether a specialized
  212. server platform or unused workstation - whichever is most appropriate at
  213. the time. For example, a high-end compute server is obviously better for
  214. solving compute-intensive simulations such as finite element analysis.
  215. However, if this server is overloaded and a workstation that could do an
  216. adequate job is left idle, the overall productivity of the computer
  217. environment suffers.
  218.    Improved productivity and products - By allowing multiple compute
  219. jobs to run in parallel and/or on faster systems, performance is
  220. dramatically improved. Users may use the time saved to run more jobs in
  221. a given time period in order to improve product design or shorten
  222. development time.
  223.    Greater flexibility and ease of accessing multiple servers - The fact
  224. that all users get access to each other's idle cycles makes for a
  225. winning proposition for the entire work group.
  226.    Access to heterogeneous computers - You can build a cooperative
  227. computing environment. For example, a task submitted from an HP 9000
  228. Series 700 workstation may be serviced by a Series 300 or 400
  229. workstation, or vice versa.
  230.  
  231. Features of the New Release
  232.    o A graphic user interface (GUI) has been added, greatly improving
  233. the product's ease-of-use. The GUI provides a visual interface to most
  234. of the Task Broker command set and configuration information,
  235. simplifying Task Broker administration. In addition, task status
  236. monitoring and control is provided for the end user.
  237.    o Centralized configuration management has been added to the new
  238. release. This feature allows the entire Task Broker installation to be
  239. initialized using a single group configuration, and to be administered
  240. from any single machine site.
  241.    o An integrated forms-based configuration editor provides for easier
  242. and more robust administration of Task Broker information. The
  243. configuration syntax is simpler and checking is done during the editing
  244. session.
  245.    o An online, context sensitive help sub-system, utilizing HP's CACHE
  246. CREEK product, contributes to Task Broker's overall ease-of-use by
  247. providing usage information when it's needed.0
  248.  
  249. NQS and NQS/Exec
  250.  
  251. Sterling Software
  252. NQS (Network Queueing Software) is a UNIX-based product available from
  253. Sterling Software that facilitates batch processing on a computational
  254. cluster. NQS is a batch queueing program that allows the user to submit
  255. a job to the cluster via a system of queues. The system administrator
  256. creates the queues according to the system demands and computing
  257. resources available. NQS/Exec adds automatic load leveling to the NQS
  258. product. With NQS/Exec, when the user submits a job to the queue, the
  259. software automatically selects the best processor available to complete
  260. the task. NQS will not move the data over to the workstation
  261. automatically unless the file system has been previously mounted via
  262. NFS. Additional features of NQS and NQS/Exec include:
  263.    o POSIX batch-queueing standard
  264.    o Interoperability with multiple platforms
  265.    o Ability to submit a job to a selected queue and track the progress
  266. of the task
  267.    o The ability to monitor server use
  268.  
  269. ConvexNQS+
  270.  
  271. Convex Computer Corporation
  272. NQS+ is a batch queueing product based on NQS and supported by Convex.
  273. ConvexNQS+ offers the standard features of NQS:
  274.    o Job routing
  275.    o Job accounting
  276.    o Access control
  277.    o Queue limits
  278.    o Standard interconnects and protocols
  279.    ConvexNQS+ allows users on a network to submit jobs into a batch
  280. queue on the Cluster. ConvexNQS+'s load balancing feature can
  281. automatically route jobs to the most appropriate processor in the
  282. cluster based on job priority, average system load, processor speed, and
  283. the length of queue. ConvexNQS+'s file importing feature allows users to
  284. execute jobs without having to manually copy files to the system
  285. processing the job. ConvexNQS+ remote mounts the user's working
  286. directory onto the executing system, makes sure the data is there, and
  287. un-mounts after job completion. Therefore, ConvexNQS+ not only
  288. automatically load balances, but also can automatically export user's
  289. data file to any node in a cluster. ConvexNQS+ is compatible with NQS
  290. and allows users to submit jobs to and from other systems that support
  291. NQS. ConvexNQS+ provides diagnostic messages that keep users and
  292. administrators informed about job and queue status.
  293.    ConvexNQS+ also offers the following additional functions:
  294.    o direct remote submission and removal of jobs
  295.    o load balancing
  296.    o file importing
  297.    o fair share scheduling
  298.    o demand or "pull" queues (more efficient than "push" queues)
  299.    ConvexNQS+ is available exclusively on HP Apollo Series 700
  300. workstations and Convex C-series supercomputers.
  301.  
  302. Load Balancer
  303.  
  304. Freedman Sharp and Associates Inc
  305. Load Balancer from Freedman Sharp and Associates is a batch queueing
  306. product which operates in heterogeneous networked environments. Load
  307. Balancer is available on both the Series 700 and 800, as well as on Sun,
  308. DEC, IBM, and SGI workstations. Load Balancer offers a central
  309. configuration file for simpler system administration and maintenance. In
  310. addition, Load Balancer allows the user to customize the configuration
  311. down to the swap space needed by an application on a specific
  312. workstation. Other key features in Load Balancer include:
  313.    o automatically queues and distributes jobs
  314.    o 256 job priority levels
  315.    o queues, pauses, restarts, or defers batch jobs
  316.    o understands fixed and floating licenses, access control and node
  317. availability schedules
  318.    o tracks server usage and performance
  319.  
  320. Software for Parallel Processing
  321. There are several software programs available that enable parallel
  322. processing on a distributed network. The software programs available on
  323. the HP Apollo Series 700 workstations are: ConvexPVM, Express, Forge 90,
  324. ISIS, Network Linda, PVM, and Tuplex,.
  325.  
  326. Convex PVM
  327. Convex Computer Company
  328. Based on PVM, ConvexPVM enables parallel execution of a single
  329. application across multiple processors in the cluster. With ConvexPVM,
  330. users can explicitly embed library calls within their C or FORTRAN
  331. application that enable parallel execution. At runtime, ConvexPVM
  332. coordinates and synchronizes initialization, process spawning, and
  333. message passing between the processors in the cluster as they execute
  334. the submitted job. In addition, ConvexPVM is also tuned for the CONVEX
  335. and PA-RISC architectures and additional routines have been added that
  336. provide a better user interface.
  337.  
  338. ConvexMLIB
  339. Convex Computer Company
  340. Based on Convex's famous VEClib package that runs on their C Series
  341. supercomputers, ConvexMLIB provides a comprehensive set of subroutines
  342. that can tackle the most demanding tasks found in numerically intensive
  343. computing. For users who want to migrate code from a Cray supercomputer,
  344. ConvexMlib includes a Cray SCILIB compatible library. Sections of
  345. ConvexMLIB routines have been assembly coded for maximum performance.
  346. Future versions of ConvexMLIB will be parallelized with ConvexPVM so
  347. parallel processing across workstations in a cluster can be
  348. transparently invoked with a simple library call.
  349.  
  350. Express
  351. ParaSoft Corporation
  352. Express is a programming environment marketed by Parasoft. Express
  353. includes a five-phase procedure in the conversion of a sequential
  354. application to parallel application. The phases are:
  355.    1. Project evaluation
  356.    2. Code development
  357.    3. Debugging and testing
  358.    4. Performance evaluation
  359.    5. Maintenance and upgrades
  360.    The code-development phase of Express contains a tool called ASPAR,
  361. which aids the user in converting sequential applications code to
  362. parallel code. Express is available for applications written in C or
  363. Fortran.
  364.  
  365. FORGE 90
  366.  
  367. Applied Parallel Research, Inc.
  368. FORGE 90, from Applied Parallel Research, Inc., is an interactive
  369. analysis environment for the exploration and parallelization of
  370. industrial strength Fortran programs. FORGE 90 is a series of layered
  371. products composed of the following:
  372.    o Baseline FORGE 90 is a an interprocedural Fortran program
  373. browser/analyser, providing tracing and in-context search functions
  374. across subprograms and through calls and COMMON. FORGE 90 locates
  375. undefined and useless variables, scrutinizes COMMON block usages,
  376. displays the relationships between routines, blocks and statements
  377. (including data dependencies), and identifies the CPU intensive parts of
  378. a program down to the DO loop level. This tool is instrumental in
  379. providing information necessary for parallelization and optimization.
  380.    o Parallelizer for Distributed Memory Systems (DMP) is an interactive
  381. tool used with Baseline FORGE 90 to parallelize Fortran applications.
  382. DMP works with the information gathered by baseline FORGE 90 to assist
  383. the user in parallelizing high level loops (to optimize efficiency). The
  384. result is a Fortran 77 SPMD (Single Program, Multiple Data) program with
  385. parallelized DO loops and partitioned data arrays spread across
  386. processors, and with communications and synchronization calls to APR's
  387. parallel runtime library PVM, Express or Linda interface. DMP also
  388. contains a parallel runtime profiler, which identifies performance
  389. bottlenecks and communications overloads, and predicts performance on
  390. scalable systems based on single node performance.
  391.    o xHPF and xHPF77 are batch command tools which convert programs with
  392. High Performance Fortran (HPF) Subset Data Decomposition Derivatives and
  393. Fortran 90 Array syntax or Fortran 77 DO loops into SPMD parallelized DO
  394. loops with calls to APR's runtime library.
  395.    FORGE 90 is available on most Unix workstation platforms.
  396.  
  397. ISIS
  398.  
  399. ISIS Distributed Systems, Inc.
  400. ISIS is a product line of distributed computing tools developed by ISIS
  401. Distributed Systems, Inc. ISIS Distributed Toolkit provides a software
  402. programming environment to develop distributed applications in C, C++,
  403. Fortran, Common LISP and Ada. ISIS offers software fault tolerance to
  404. the distributed computing environment. Additional products which can be
  405. layered on to the Toolkit are--
  406.    o ISIS Distributed Resource Manager: This product is used to create a
  407. fault-tolerant "supercomputer" out of a network of workstations. The
  408. ISIS Distributed Resource Manager actually enables load-balanced batch
  409. processing in a distributed computing environment.
  410.    o ISIS Distributed News: Designed for banking and brokerage
  411. applications, this product is a fault-tolerant message publication-
  412. subscription system that serves as a communications backplane for
  413. applications requiring subject-based broadcasting.
  414.    o ISIS Reliable Network File System: This product is a fault-tolerant
  415. network file system based on NFS protocol. Completely compatible with
  416. NFS, the ISIS RFNS product requires no changes to the applications
  417. software, or the NFS servers, and no additional hardware.
  418.    o ISIS Distributed Sensors: This product is a system administrative
  419. tool designed to monitor server performance and availability.
  420.  
  421. Network Linda
  422.  
  423. Scientific Computing Associates
  424. Network Linda is a parallel processing language sold by Scientific
  425. Computing Associates (SCA). Network Linda contains six commands that are
  426. inserted into applications programs (available for C, C++, and Fortran)
  427. to run independent tasks simultaneously. SCA markets Network Linda to
  428. customers with high-level computing needs who have developed their own
  429. applications programs. Examples of these customers in the commercial
  430. market include the oil, gas, and finance industries.
  431.    Network Linda operates on a "Master/Worker" paradigm. The "Master"
  432. breaks the application into tasks via Linda commands embedded in the
  433. source code. When the program runs, the "worker" grabs a task, completes
  434. it, returns it to the master, and grabs another task. Tasks are
  435. contained in a unit called a "Tuple," and several tuples together are
  436. called a "Tuple Space". Tuples may also contain data or results. Network
  437. Linda coordinates the interaction between Tuples so that the parallel
  438. operation is invisible to the end user. The only visible difference is
  439. that the application runs several times faster.
  440.  
  441. PVM/HeNCE
  442.  
  443. Oak Ridge National Laboratory
  444. PVM (Parallel Virtual Machine) is a software environment coordinating
  445. parallel processing in a heterogeneous network. Developed by the Oak
  446. Ridge National Laboratory in Tennessee, PVM is public domain software
  447. available by sending electronic mail to "netlib@ornl.gov" with the
  448. message "send index from pvm". PVM achieves parallel processing via a
  449. message sending and receiving paradigm. PVM is well suited for both
  450. applications with interrelated subtasks and for traditional parallel
  451. applications (those without a great deal of interaction). The Oak Ridge
  452. Lab developed HeNCE to serve as a graphical interface tool and
  453. methodology to use PVM. PVM/HeNCE contain the tools to configure a
  454. heterogeneous network, manage multiple object modules in each component
  455. of the application, execute the application in parallel mode, debug, and
  456. monitor performance.
  457.  
  458. Tuplex
  459.  
  460. Torque Systems
  461. Tuplex is a Linda based parallel programming environment developed
  462. specifically for commercial applications. Torque works with application
  463. developers to parallelize third party applications for business imaging,
  464. spreadsheet/financial analysis, and other highly parallelizable
  465. applications. Like Network Linda, Tuplex uses the "Master/slave"
  466. paradigm to achieve the distribution of tasks across a cluster.
  467.  
  468. System Administration and Management Software
  469. The management and administration of a cluster are key issues in a
  470. cluster environment. HP offers system administration and management
  471. software to aid in critical network administration practices, such as
  472. back-up, recovery, and performance management in a cluster. The tools
  473. from HP that provide these services are Network Node Manager, PerfView,
  474. GlancePlus, RemoteWatch, OmniBack, and OmniBack/Turbo.
  475.  
  476. Network Node Manager and PerfView
  477. Network Node Manager, available as part of PerfView, dynamically
  478. generates and maintains a map of the network. It can be used to collect,
  479. analyze and graph data about network layout and usage. PerfView is a
  480. system-management software tool that collects data on and analyzes
  481. network performance. Using a color graphical map, PerfView displays the
  482. CPU, disk, and LAN utilization in the cluster. PerfView contains
  483. sophisticated alarm-filtering technology to identify potential problems
  484. in the cluster.
  485.  
  486. HP GlancePlus
  487. GlancePlus is used for online monitoring of individual systems. Each
  488. system's activity within the cluster can be displayed within a window.
  489. It can characterize system performance and resolve problems. GlancePlus
  490. monitors CPU, memory, and I/O usage by process and by user. GlancePlus
  491. can track historical trends and it can help balance disk use and tune
  492. file systems.
  493.  
  494. OmniBack and OmniBack/Turbo
  495. OmniBack is an automated global network backup management solution that
  496. provides sophisticated scheduling and journaling facilities to make
  497. centralized backup and recovery on a cluster a simpler procedure.
  498. OmniBack/Turbo is a high-speed version of OmniBack used to provide
  499. backup services for users with large databases (using local raw disk).
  500. OmniBack/Turbo is available on both the HP Apollo Series 700
  501. workstations and the Series 800 business servers, and is especially
  502. valuable in clusters with an 800 as a high-availability file server.
  503.  
  504. Example Pricing
  505. Here is an example cluster configuration based on eight Series 700 Model
  506. 735 headless workstations.
  507.    Cluster Processing Module x 8
  508.             735 Server
  509.             32MB RAM, 1.0GB Disk
  510.    Cluster Control System
  511.             715/50 Color Workstation, EISA
  512.             32MB RAM, 1.0 GB Disk
  513.    Rack Cabinet
  514.             1600mm rack for 8 systems
  515.    System Integration
  516.    Total:   $315,940 (US List)
  517.  
  518. Software Pricing
  519. Here is US List pricing for the software. Contact each vendor directly
  520. for detailed pricing.
  521.  
  522.                                              Unit Price
  523. Company                    Product           (Per node)  10 Nodes
  524. ------------------------------------------------------------------------
  525.  Convex                    ConvexNQS+        $1,250      $4,750*
  526.                            ConvexPVM         $2,600      $9,500*
  527.                            ConvexNSQ+and
  528.                            ConvexPVM         $3,375      $12,825*
  529.                            ConvexMLIB        $4,995      $25,000*
  530.                                                          * 8 node price
  531.  
  532.  Sterling                  NQS 2.2           $495        $4,700
  533.                            NQS/Exec 2.2      $795        $7,550
  534.  
  535.  HP                        TaskBroker         ---        $5,000
  536.  
  537.  Freedman Sharp & Assoc.   Load Balancer     $299        $1,500
  538.                                                          (Site License)
  539.  
  540.  Scientific Computing      Network Linda     $1,000      $4,995
  541.  Assoc
  542.  
  543.  Isis Distributed          Isis Distributed  $500        $5,000
  544.   Systems                  Toolkit           $2,500      $25,000
  545.  
  546.  Oak Ridge National Lab    PVM               $0          $0
  547.                            HeNCE             $0          $0
  548.  
  549.  Parasoft                  Express                       Contact
  550.                                                          Parasoft
  551.  
  552.  Torque                    Tuplex                        Contact Torque
  553.  
  554.  Applied Parallel Research FORGE 90          $2,405      $22,295
  555.  
  556.         Contact Summary of Third-party Cluster Software Providers
  557.  
  558. Product     Contact        Company                    Phone
  559. ------------------------------------------------------------------------
  560.  Linda      Leigh Cagan    Scientific Computing       203-777-7442
  561.                            Associates                 203-776-4074 (FAX)
  562.                            One Century Tower
  563.                            265 Church Street
  564.                            New Haven, CT 06510
  565.  
  566.  NQS        Thomasine      Sterling Software          415-964-9900
  567.             Bailey         1121 San Antonio Road      415-969-3821 (FAX)
  568.                            Palo Alto, CA 94303
  569.  
  570.  ConvexNQS+ Blair Baker    Convex Computer Corp.      214- 497-4000
  571.  ConvexPVM                 3000 Waterview Parkway     214-497-4848 (FAX)
  572.  ConvexMLIB                P.O. Box 833851
  573.                            Richardson, TX 75083
  574.  
  575.  Express    Bill Rodart    Parasoft                   818-792-9941
  576.                            2500 E. Foothill Blvd      818-792-0819 (FAX)
  577.                            Suite 205
  578.                            Pasadena, CA 91107
  579.  
  580.  Isis       Rick Moran     Isis Distributed Systems   212-979-7729
  581.                            Suite 200                  607-272-6327
  582.                            111 Cayuga Street          607-277-2611 (FAX)
  583.                            Ithaca, NY 14850
  584.  
  585.  Load       Dan Freedman   Freedman Sharp and Assoc.  403-251-2729
  586.  Balancer                  204 Woodglen Place S.W.    403-281-0204 (FAX)
  587.                            Calgary, Alberta T2W 4G3
  588.  
  589.  PVM        netlib         Oak Ridge National
  590.             @ornl.gov      Laboratory
  591.             (e-mail)       Oak Ridge, TN
  592.  
  593.  Tuplex     Scott Rafer    Torque Systems, Inc        415-321-1200
  594.                            825 Emerson Street         415-321-1298 (FAX)
  595.                            Palo Alto, Ca 94301
  596.  
  597.  FORGE 90   Bob Enk        Applied Parallel           301-718-3733
  598.                            Research                   301-718-3734 (FAX)
  599.                            5500 Lambeth Road
  600.                            Bethesda, MD 20814         or
  601.             John Levesque  550 Main Street, Suite 1   916-621-1600
  602.                            Placerville, CA 95667      916-621-0593 (FAX)
  603.  
  604. Cluster Lab
  605. We have built a lab in Fort Collins, Colorado, that houses a cluster of
  606. 735 workstations with all the third-party enabling software. The lab
  607. will be able to demonstrate the capabilities of a workstation cluster
  608. and will also be available for benchmarking application code. HP will
  609. use this lab to characterize and report on the performance of various
  610. applications on workstation clusters using different third-party
  611. programs. We will also experiment to see how different workstation
  612. configurations and topologies affect performance. Convex has a similar
  613. lab in Richardson, Texas.
  614.  
  615. Future Directions
  616. HP intends to build on this first cluster offering by investing in
  617. technologies that will improve system performance and make clusters
  618. easier to use, administer, and manage.
  619.    A new release of Task Broker will be available in mid 1993. The new
  620. release will have a graphical user interface, a central configuration
  621. management file, and improved task status and control tools.
  622.    Areas of investigation for future product release include higher
  623. bandwidth, lower latency connections between machines in a cluster. In
  624. addition to a faster FDDI implementation on the 7100-based workstations,
  625. products under development include HiPPI (High Performance Parallel
  626. Interface), Fibre Channel and ATM (Asynchronous Transfer Mode). Due out
  627. by the end of 1993, HiPPI provides an 800 Mb/second bandwidth. Fibre
  628. Channel is designed to communicate between clusters and mainframes at
  629. speeds ranging from 266 to 1062Mb/second. Fibre Channel is expected to
  630. be available in the 1993-94 time frame. ATM offers very low latency and
  631. speeds ranging from 45Mb/sec to 155Mb/sec, integrates voice and data,
  632. and is well suited for applications containing multimedia. ATM is
  633. expected to be available in the 1994 time frame.
  634.    In addition, we will be focusing HP's already ongoing development in
  635. network computing and network management technologies on cluster
  636. computing to make clusters easier to administer and more resilient
  637. during operation. Process migration, checkpoint restart, and single
  638. system image are two important features under development.
  639.    Convex will play an active role in future developments in the cluster
  640. program. Convex is planning to build MPP (Massively Parallel Processing)
  641. machines using PA-RISC CPUs. The Convex MPP machines will be compatible
  642. with existing HP Series 700 clusters using Convex software. The
  643. advantage to the HP-Convex cluster customer is that the MPP machines
  644. will be able to provide more power without requiring the customer to
  645. change software. Convex is planning to release its first MPP machines in
  646. 1994.
  647.  
  648. UNIX is a registered trademark of UNIX System Laboratories Inc. in the
  649. U.S.A. and other countries.
  650.    The information contained in this document is subject to change
  651. without notice.
  652.  
  653. Copyright (c) Hewlett-Packard Co., 1993
  654. Printed in U.S.A. 4/93
  655. 5091-7014E
  656.